文本的风格分析是研究领域的关键任务,从作者归因到法医分析和人格分析。现有的风格分析方法受到主题影响力,大量作者缺乏可区分性以及对大量不同数据的要求所困扰的。在本文中,确定了这些问题的来源,以及对解决方案的认知观点的必要性。引入了一种新型功能表示,称为基于轨迹的样式估计(TRASE),以支持此目的。在跨域场景中拥有超过27,000名作者和140万样本的作者归因实验,导致90%的归因精度表明该特征表示对这种负面影响不受影响,并且是对风格分析的出色候选者。最后,使用物理人类特征(如年龄)对TRASE进行定性分析,以验证其在捕获认知特征方面的主张。
translated by 谷歌翻译
来自运动(SFM)技术的结构越来越多地用于从包括环境监测的许多域中的图像中创建3D地图。然而,SFM技术通常在视觉重复环境中被混淆,因为它们依赖于全局不同的图像特征。同时定位和映射(SLAM)技术在视觉重复环境中提供了潜在的解决方案,因为它们使用本地特征匹配,但是SLAM接近最佳地用广角相机,通常不适合记录环境系统的环境系统。我们通过提出双摄像机SLAM方法来解决这个问题,该方法使用前向广角相机进行定位,以及用于文档的向下的面对较窄的角度,高分辨率相机。使用前向相机视频获取的视频帧使用标准的SLAM方法处理,该方法通过环境提供成像系统的轨迹,然后用于指导文档相机图像的登记。随后从文档摄像机图像由单眼摄像机图像产生的零碎地图随后缩放并与定位相机轨迹对齐,最后经过全局优化过程以产生统一的精细地图。具有多种最先进的SFM方法的实验比较显示了基于地面控制点标记的选择样本在重复环境系统中执行的双相机液化方法。
translated by 谷歌翻译
学习排名 - 制作特定于查询的项目的排名列表以及一组监督项目 - 是一个普遍兴趣的问题。我们认为的设置是没有分析描述构成良好排名的设置。取而代之的是,我们有一个包含(目标项目,有趣的项目集)对的表示和监督信息的集合。我们在仿真中进行了分析证明,在实际数据示例中,当监督与“这几个相似的项目相似”时,通过使用整数线性程序组合表示来进行排名是有效的。尽管这项提名任务是相当普遍的,但对于特异性,我们从图表中的顶点提名的角度介绍了我们的方法论。本文描述的方法是模型不可知论。
translated by 谷歌翻译
在机器学习的关键安全应用中,通常要放弃对低信心的预测进行预测很重要。标准弃权方法倾向于专注于优化TOP-K的准确性,但是在许多应用中,准确性并不是感兴趣的指标。此外,在实际环境中,标签转移(训练时间和预测时间之间的班级比例变化)无处不在,现有的弃用方法不能很好地处理标签转移。在这项工作中,我们提出了弃权的一般框架,该框架可以应用于优化任何感兴趣的指标,该指标在测试时可适应标签变化,并与任何可以校准的分类器开箱即用。我们的方法利用了最近的报道,即校准概率估计值可以用作真实类标签的代理,从而使我们能够估计如果弃权示例,则可以估算任意度量的变化。我们在框架下介绍了计算有效的算法,以优化目标特异性,AUROC和加权Cohen的Kappa的灵敏度,并根据JS差异与先前的类概率引入新颖的强基线。关于合成,生物学和临床数据的实验支持我们的发现。
translated by 谷歌翻译
The purported "black box" nature of neural networks is a barrier to adoption in applications where interpretability is essential. Here we present DeepLIFT (Deep Learning Important FeaTures), a method for decomposing the output prediction of a neural network on a specific input by backpropagating the contributions of all neurons in the network to every feature of the input.DeepLIFT compares the activation of each neuron to its 'reference activation' and assigns contribution scores according to the difference. By optionally giving separate consideration to positive and negative contributions, DeepLIFT can also reveal dependencies which are missed by other approaches. Scores can be computed efficiently in a single backward pass. We apply DeepLIFT to models trained on MNIST and simulated genomic data, and show significant advantages over gradient-based methods. Video tutorial: http://goo.gl/qKb7pL, ICML slides: bit.ly/deeplifticmlslides, ICML talk: https://vimeo.com/238275076, code: http://goo.gl/RM8jvH.
translated by 谷歌翻译